Thor的T5000版本最高可配备128GB的LPDDR5内存。同时,Thor的I/O带宽相比Orin200提升了10倍,达到200Gbps,配备了4个25Gbps的以太网接口。 在这个功率范围内,Thor能实现同类产品中最佳的2000+TFLOPS性能。从机械结构方面来看,好消息是Thor模块的外形尺寸与Orin兼容。 而Jetson则不同,它可以完整获取英伟达的软件栈。除此之外,英伟达还针对Jetson这款边缘AI计算机,提供了专门的软件。 安全问题至关重要,因为Jetson最终会部署到客户的实际产品中,所以我们对此高度重视,并提供了相应的安全解决方案。总之,通过我们提供的软件栈,Jetson在软件支持方面为开发者提供了全方位的保障。 接着,将烧录好的U盘插入Jetson设备,稍作操作(比如按几次回车键),大约12分钟后,你的Jetson就能完成系统安装,准备好基于BSB(推测为底层软件栈或特定框架)的开发环境。
今年8月底,随着Thor平台推出,英伟达三大计算平台将全面搭载Blackwell架构,这是重要突破。我们期待分享如何更高效地实现这一目标——尽管目前刚刚推出Jetson Thor,但这只是起点。 关于Jetson Thor的开发环境安装与系统烧录,若你计划基于Jetson Thor开展开发,使用Jetson AGX Thor开发套件是最优的入门选择。 传统上,若要在Jetson AGX Thor平台上进行开发,通常需要先准备一台主机(比如PC),通过这台主机将Jetson设备烧录启动——整个流程较为繁琐。 但如果你是初次接触Jetson AGX Thor开发套件,使用ISO镜像通过U盘安装,是最推荐的方式。 如今,Jetson Thor终于实现了基于SBSA(服务器基础系统架构)的系统架构。这一升级得益于我们为Jetson全新研发的新型GPU驱动——OpenRM驱动。
当我们考虑用于边缘计算的不同处理器时:Jetson AGX Thor 主要适用于机器人和嵌入式 AI 系统。 关于可用性与供应渠道:Jetson AGX Thor 目前主要通过我们的渠道合作伙伴提供开发者套件(developer kit),而量产系统则由我们的嵌入式 ODM 合作伙伴提供。 关于软件栈支持:Jetson AGX Thor 使用的是 JetPack OS,主要侧重于硬件平台支持,社区支持较多,但没有企业级支持(honor price 支持)。 关于适用场景总结:Jetson AGX Thor 非常适合用于人形机器人,以及各种室内外、物理世界的垂直应用场景,具有非常大的灵活性,几乎可以覆盖所有机器人和嵌入式 AI 应用。 DGX Spark 更多用于通用研究,或者希望部署为室内边缘推理设备的用户,但它缺乏工业级加固和宽温支持,所以适用的环境范围相对较窄,温度适应性不如 Jetson 系列。
开箱:打开NVIDIA Jetson AGX Thor开发套件盒子,你会发现:-Jetson AGX Thor 开发 套件-电源(带适配器和区域插头)-USB-C 和 USB-A 电缆-快速启动文档当您拿起它的瞬间 ,Jetson AGX Thor便展现出坚固耐用的质感与精工细作的构造。 相较于Jetson AGX Orin开发套件,NVIDIA Jetson AGX Thor实现了架构与性能的双重跨越。 以下是设置过程的摘要:完成后,安全地弹出U盘并将其插入Jetson AGX Thor。从USB刷机现在是刷Jetson Thor本身的关键步骤。 打开 Jetson AGX Thor 电源,然后从 U盘启动。在安装程序中,选择 Jetson Thor 选项。在 NVMe 上选择 Flash Jetson Thor AGX 开发套件。
以下是针对NVIDIA Jetson及Thor平台性能跃升关键点的结构化整理与分析: 一、核心性能突破:Blackwell架构的革新 1.Transformer引擎原生支持低精度计算 FP4/FP8精度优化 2.CPU与内存性能翻倍 CPU算力提升:Jetson AGX Thor配备14核CPU(含AE扩展核心),性能达前代2.6倍,强化实时控制(如电机驱动、传感器融合)。 Jetson Thor会在今年6月份上市 以下是针对NVIDIA Jetson SoC架构的详细技术解析与升级亮点总结: 一、异构计算架构:GPU与CUDA性能突破 1.GPU模块化设计 三集群架构: 开发者体验提升 1.容器化部署:通过Docker集成,实现算法跨Jetson平台(如Orin/Thor)的无缝迁移。 代际对比与场景价值 性能代差:相比前代Jetson AGX Xavier套件,Thor平台算力提升3倍,支持复杂SLAM算法实时运行。
本文整理自NVIDIA线上研讨会《Accelerate Robotics and Real-Time AI Inference on NVIDIA Jetson Thor》 【解密Jetson Thor 系列2】开放生态重构AI推理边界——零日支持、7倍性能飞跃与机器人革命 【解密Jetson Thor系列1】从边缘到通用智能:英伟达为何打造Jetson Thor? 当我们考虑用于边缘计算的不同处理器时: Jetson AGX Thor 主要适用于机器人和嵌入式 AI 系统。 关于可用性与供应渠道: Jetson AGX Thor 目前主要通过我们的渠道合作伙伴提供开发者套件(developer kit),而量产系统则由我们的嵌入式 ODM 合作伙伴提供。 关于软件栈支持: Jetson AGX Thor 使用的是 JetPack OS,主要侧重于硬件平台支持,社区支持较多,但没有企业级支持(honor price 支持)。
NVIDIA作为全球AI计算的领军者,始终致力于通过技术创新重新定义计算边界,其最新推出的DGX Spark桌面超级电脑(以下简称DGX Spark)与Jetson Thor开发套件(以下简称Jetson GPUS开发者 ,赞20 Jetson Thor Jetson Thor则是一款专为物理AI和机器人领域打造的紧凑型强机。 Jetson AGX Thor: -14核Arm® Neoverse®-V3AE 64位CPU。 Jetson AGX Thor:功耗范围为40W-130W,具体取决于配置和应用场景。 Jetson Thor开发套件 Jetson Thor则更侧重于物理AI和机器人领域的应用。其强大的AI计算性能和丰富的硬件加速器,使得Jetson Thor成为下一代人形机器人的理想平台。
本周一,英伟达正式发布了旗下的新一代机器人专用芯片 Jetson Thor。与上一代 Jetson Orin 相比,新一代算力旨在大幅提升算力,以适配具身智能新算法,支持人形机器人等各种形态。 更具体的配置如下: Jetson Thor 专为生成式 AI 模型的推理打造,可支持下一代「物理 AI」智能体。 英伟达表示,通过 FP4 精度与推测解码优化,Jetson Thor 的性能有望进一步提升。 Jetson Thor 的发布,可以说是为端侧的版图,换上了最新最强的算力。 Jetson Thor 产品包含开发者套件与量产级模组。 此前在世界机器人大会,国内顶尖的机器人公司宇树科技、银河通用机器人等已经宣布将首发搭载英伟达最新的 Jetson Thor 芯片。
本文将从硬件参数、设计细节、功能特性、应用场景及产品对比等维度,全面解析 Jetson Thor 的技术优势与价值。 一、核心硬件:Blackwell 架构加持的算力巨兽Jetson Thor 的核心竞争力源于其顶尖的硬件配置,专为高负载 AI 任务与机器人控制场景设计。 从性能对比来看,Jetson Thor 较前代产品 Jetson AGX Orin 实现了跨越式提升:AI 性能达到 Orin 的 7.5 倍,可处理更复杂的多模态感知任务(如同时解析多摄像头、激光雷达数据 二、设计细节:紧凑形态与灵活散热的平衡作为面向机器人开发的开发者套件,Jetson Thor 在形态设计上充分考虑了实际部署需求,采用 “核心模块 + 载板” 的组合形式 —— 核心 Jetson 模块尺寸仅为 四、产品对比:与 Jetson AGX Orin 的关键差异作为 Jetson 系列的两代旗舰产品,Thor 与 Orin 的定位与特性差异明显,具体可从以下维度对比:对比维度Jetson ThorJetson
Jetson Thor:4纳米制程意味着在相同面积的芯片上,可以集成相对较少的晶体管。尽管如此,Jetson Thor依然通过优化设计,在有限的晶体管数量下实现了高效的AI计算。 Jetson Thor通过优化架构设计,在保证性能的同时,有效控制了功耗。DGX Spark(GB10):GB10 SoC的功耗为140瓦,略高于Jetson Thor。 而Jetson Thor则通过优化架构设计和集成多种硬件加速器,在能效比和特定任务处理上表现出色。 Jetson Thor的QoS策略更侧重于可预测的延迟和效率,这在某些场景下可能限制了内存带宽的有效利用。 Jetson Thor:虽然Jetson Thor实现了全缓存一致性,但其CPU无法直接访问GPU的L2缓存。
现介绍Jetson计算模块系列中的Jetson T5000模块——此模块为当前Jetson AGX Thor开发者套件的核心组件。现透露一则关键信息:NVIDIA将推出T4000模块。 此为Jetson AGX Thor开发者套件的爆炸视图展示:T5000 Jetson Thor模块居中布局,并配备载板以引出全部内部接口。 Q:DGX Spark与Jetson Thor的主要差异是什么? Q:Jetson Thor能否运行本地大语言模型(如1200亿参数的GPT变体)?A:Thor配备128GB大内存及Blackwell架构GPU(含超2000个核心),可容纳超大模型。 Orin系列已通过Jetson AI Lab支持相关容器,Thor的社区适配工作正在推进,近期将公布进展。Q:Thor在机器人/工业场景的实时性能如何?
某中心的Jetson AGX Thor边缘计算平台,自2025年8月发布以来,通过持续的软件优化,其生成式AI性能已实现了7倍的增长。 系列模型Jetson AGX Thor 2025年9月 (输出令牌/秒)Jetson AGX Thor 2025年8月 (输出令牌/秒)相比发布时的速度提升LlamaLlama 3.3 70B41.512.63.3xDeepSeekDeepSeek 零日支持运行最新模型开发者可在边缘端使用Jetson Thor,并享受零日支持,运行最新、最强大的生成式AI模型。 某中心正在发布一个独立的vLLM容器,支持Jetson Thor,并每月更新包含最新的改进。 现在,开发者可以满怀信心地提升其生成式AI模型在Jetson Thor上的性能了。
Jetson Thor 支持所有现代生成式人工智能框架和模型。Jetson 的一大优势在于它是一个开放平台,并不绑定某一家特定的人工智能公司、供应商或模型提供商。 也就是说,VLLM 容器已经可以在 Jetson Thor 上运行。 另外,NeMoGuardrails 也是英伟达的一项重要努力,它基于开源模型,打造了英伟达定制化的推理方案,这些方案同样可以在 Jetson Thor 上运行。 我们已针对 Thor(架构/平台) 推出了基准测试教程,部分现有教程已兼容 Thor,同时团队正积极扩展更多教程的支持。 为了直观展示其能力,虽然理想情况下每位观众都应有连接Jetson Thor的人形机器人进行实操演示,但实际条件限制下,我们选择将Jensen的“计算机大脑”接入模拟器,模拟人形机器人任务执行。
需要注意的是,JetPack 7.1 目前仅支持 Jetson AGX Thor 开发套件、Jetson T5000 模组和 Jetson T4000 模组,精准聚焦高性能边缘计算场景的核心需求。 该软件栈不仅为全新 Jetson T4000 模块提供全方位支持,更保持了与 Jetson T5000 模块、Jetson AGX Thor 开发套件的兼容性,让开发者能够基于统一的软件架构实现跨性能 Thor 平台提供硬件加速的视频编解码能力。 硬件层面,依托 Jetson T4000 与 T5000 模块的尺寸和引脚兼容性,开发者可设计通用载板,同时适配两款硬件平台,仅需针对散热等固有特性进行微调,而 Jetson AGX Thor 开发套件的加入则为开发者提供了更灵活的开发选择 总结:开启边缘智能的全新可能 JetPack 7.1 的推出,不仅为 Jetson T4000 模块、Jetson T5000 模组及 Jetson AGX Thor 开发套件注入了强大的软件动力,更构建了性能
开发者可以在Isaac Lab中进行模拟(这是Omniverse Isaac Sim的新应用,用于人形学习),在OSMO上进行训练(这是一个新的计算编排系统,用于扩展模型),并部署到Jetson Thor 为了实现这个目标,作为该计划的一部分,NVIDIA在本次GTC大会上宣布一款基于 NVIDIA Thor 片上系统的人形机器人新计算机,即Jetson Thor,以及用于 NVIDIA Isaac 机器人平台的新工具 人形机器人的大脑“Jetson Thor" 人形机器人是复杂的系统,需要异构计算来满足高频低级控制、传感器融合和感知、任务规划和人机交互的需求。 NVIDIA 推出了一款基于 Jetson Thor 的新型人形机器人计算机,该计算机基于 NVIDIA Thor SoC 构建。 Jetson Thor 包括基于 NVIDIA Blackwell 架构的下一代 GPU,其转换器引擎可提供 800 teraflops 的 8 位浮点 AI 性能,以运行 GR00T 等多模态生成式
随着NVIDIA Blackwell GPU架构赋能的Jetson Thor SoC发布,CUDA 13.0通过一系列创新优化,重新定义了嵌入式与边缘AI的开发范式。 统一工具链:一次构建,全平台部署CUDA 13.0 实现了重大突破,首次消除了服务器级(遵循服务器基础系统架构SBSA标准)与嵌入式设备(如Jetson Thor)在工具链上的差异。 虽然nvidia-smi和NVML现已在Jetson Thor上得到支持,但部分功能,如时钟、功耗和温度查询、按进程利用率以及系统级芯片(SoC)内存监控等,目前尚不可用。 未来展望:CUDA与Jetson Thor的无限可能多实例GPU/MIG功能即将登场,它能把大型GPU划分成多个小设备,每个小设备都有专属资源,彼此隔离且互不干扰。 CUDA 13为Jetson Thor带来的新特性,是迈向统一简化开发者体验的重要一步,开发者无需再在多个并行工具链间周旋,只需在Arm架构上安装单一的CUDA即可。
Thor:全新自动驾驶芯片,还身兼多职 RTX 40系列之后,老黄紧接着带来的是全新自动驾驶旗舰级芯片“Thor(雷神)”,用黄仁勋的话来说:“Atlan不再是第一了……它将被Thor取代”。 如今来看,Atlan似乎是被砍了,并且主角也由Atlan换成了Thor。 依据介绍,Thor搭载了770亿晶体管,可实现算力2000 TOPS和2000 TFLOPs。 而为了加快芯片之间的数据传输,英伟达也在Thor中集成了最初为数据中心应用开发的NVLINK连接。 Thor该芯片预计2025年上车。 Jetson Orin Nano:微型机器人系统级模块,速度提升80倍 硬件方面,除了最新消费级GPU RTX 40系列、全新自动驾驶芯Thor,英伟达还带来了一款微型机器人系统级模块芯片Jetson 依据介绍,相较于3月份发布的Jetson Nano,Jetson Orin Nano的性能大幅提升了约80倍,但是价格相对较低,很可能成为入门级AI边缘设备和机器人开发的新标准。
AGX Thor 开发者套件、Jetson AGX Orin(32GB/64GB)、Jetson Orin Nano(8GB),以及 PC(RTX 显卡)、Mac(M3)、Windows(WSL2+RTX 三、Jetson 设备安装步骤 (一)步骤 1:部署 VLM 后端(以 Ollama 为例,Jetson 专属配置) 首先需在 Jetson 设备上安装 Ollama 作为本地 VLM 后端,执行以下命令 AGX Orin/Thor) # ollama pull qwen2.5-vl:7b(Jetson Orin 系列) Jetson Thor 专属注意事项:JetPack 7.0 用户需安装 Ollama 收到提示时允许摄像头访问 四、Jetson 设备功能使用指南 (一)核心配置与启动分析(Jetson 优化设置) VLM API 配置验证:界面会自动检测 Jetson 本地运行的 Ollama/vLLM (三)Jetson 专属参数调整(平衡算力与性能) 帧处理间隔:Jetson Orin Nano 建议设为 60 帧,Jetson AGX Orin/Thor 可设为 30-45 帧,避免频繁分析导致
Thor time limit per test 2 seconds memory limit per test 256 megabytes input standard input output standard output Thor is getting used to the Earth. Thor is fascinated by this phone. Please help Thor and tell him the number of unread notifications after each event. Thor reads the notification generated by application 3, there are 2 unread notifications left.
Thor 开发套件等硬件选择。 有趣的是,NVIDIA 推出 DGX Spark 后,好几个开发者都说很犹豫:是购买 DGX Spark 跑 Isaac Sim,还是买 Jetson Thor 开发套件跑 Isaac Sim? 另外有一个很重要的事情:Isaac Sim 需要硬件能支持光线追踪,所以尽管 Jetson Thor 可以安装 Isaac Sim,但是由于不支持光线追踪,所以运行出来是二维的。 Thor 的二维运行效果,仅能用于简单的功能验证,无法发挥 Isaac Sim 在场景真实感、物理交互模拟上的核心优势。 Thor 开发套件的轻量化与场景适配性更具优势。